Selecione o idioma

Portuguese

Down Icon

Selecione o país

Spain

Down Icon

"É uma ilusão": um estudo da Apple desafia o maior mito da inteligência artificial.

"É uma ilusão": um estudo da Apple desafia o maior mito da inteligência artificial.

A Apple gerou polêmica no mundo da inteligência artificial (IA) há alguns dias com a publicação de um estudo que atinge diretamente um dos pilares discursivos dessa tecnologia: a suposta capacidade de modelos como o ChatGPT de "raciocinar".

O artigo , intitulado A Ilusão do Pensamento , argumenta que, apesar das aparências, os sistemas de IA generativa não pensam ou raciocinam como os humanos , e que até mesmo o “raciocínio” que parecem exibir pode ser contraproducente .

A pesquisa, conduzida por cientistas da Apple Machine Learning Research , ocorre em um momento em que a empresa de Cupertino parece estar ficando para trás de concorrentes como OpenAI , Google e Anthropic, líderes no desenvolvimento de modelos avançados de linguagem.

Por isso, muitos observadores rapidamente encararam o estudo como uma tentativa de desafiar narrativas externas, em vez de uma contribuição puramente acadêmica.

Mesmo assim, o conteúdo do trabalho não passou despercebido. A Apple propõe uma nova categoria de modelos chamada Modelos de Raciocínio Amplo (LRMs) , projetados para gerar raciocínio intermediário antes de fornecer uma resposta. O objetivo: avaliar se a inclusão explícita de processos lógicos melhora o desempenho da IA ​​em diferentes tipos de tarefas.

Por que a Apple afirma que modelos como o ChatGPT não pensam

"A Ilusão do Pensamento": o artigo com o qual a Apple tenta expor a IA.

Para evitar vieses derivados dos dados aprendidos durante o treinamento, os pesquisadores submeteram esses modelos a uma série de quebra-cabeças sintéticos , como a clássica Torre de Hanói, Checker Jumping, travessias de rios e problemas de manipulação de blocos (Blocks World). Esses cenários foram projetados especificamente para exigir raciocínio lógico e planejamento passo a passo .

Os resultados foram surpreendentes: embora os LRMs tenham mostrado vantagem sobre os modelos tradicionais em desafios de média complexidade, eles entraram em colapso completamente quando a dificuldade foi aumentada .

Além disso, esse colapso não se deveu à falta de recursos computacionais, mas a um fenômeno mais intrigante: "O esforço de raciocínio deles aumenta com a complexidade do problema até certo ponto, depois diminui apesar de terem um orçamento adequado".

O impressionante é que, em testes simples, os modelos de raciocínio apresentam desempenho ainda pior do que os modelos padrão . Ou seja, quando as tarefas não exigem lógica avançada, pensar demais pode se tornar um obstáculo .

"A investigação do primeiro movimento errado dos modelos revelou um comportamento surpreendente . Por exemplo, eles conseguiram fazer até 100 movimentos corretos na Torre de Hanói, mas falharam em fazer mais de 5 movimentos corretos no quebra-cabeça da Travessia do Rio", acrescentam os autores.

No geral, o estudo parece desafiar a narrativa cada vez mais prevalente de que estamos à beira da inteligência artificial de nível humano ou mesmo da IAG ( Inteligência Artificial Geral ).

A Apple sugere que essa ideia se baseia em uma ilusão : a de confundir a capacidade dos modelos de verbalizar etapas lógicas com uma compreensão genuína dos problemas.

Nesse sentido, a conclusão do trabalho é categórica: o que parece ser raciocínio nada mais é do que o eco de padrões aprendidos . A IA, pelo menos por enquanto, não raciocina: ela simula . E quando a simulação é levada além de seus limites conhecidos, ela falha .

A Apple está ficando para trás na corrida da IA

A Apple ainda não lançou um modelo próprio que possa competir em igualdade de condições. (Foto: Reuters) A Apple ainda não lançou um modelo próprio que possa competir em igualdade de condições. (Foto: Reuters)

Essa visão contrasta com a abordagem adotada por outras gigantes da tecnologia, que incorporaram explicitamente funções de raciocínio em seus modelos. A OpenAI com o GPT-4 , a Google com o Gemini e a Anthropic com o Claude visam fortalecer essas capacidades, que são vistas como um passo em direção a sistemas mais autônomos e confiáveis.

Do lado crítico, houve muitas vozes apontando que o estudo da Apple não revela uma falha grave, mas simplesmente descreve um fenômeno bem conhecido: o excesso de pensamento . Ou seja, a tendência de alguns modelos de gerar raciocínios desnecessariamente longos e complexos , o que pode levar a erros ou travamentos.

Também há dúvidas sobre se a Apple, sem uma IA própria no mesmo nível dos concorrentes , tem incentivo para desacreditar os avanços de outras empresas. A empresa mantém parcerias com empresas como a OpenAI, mas ainda não lançou seu próprio modelo de linguagem que compita em igualdade de condições.

Além das intenções por trás do artigo, a verdade é que a Apple conseguiu trazer uma discussão fundamental à tona: o que "pensar" realmente significa para a inteligência artificial? Estamos confundindo forma com substância?

Em meio à euforia em torno dos sistemas conversacionais, A Ilusão do Pensamento apresenta um desafio. E, embora não encerre o debate, questiona uma das fantasias mais recorrentes do momento: a de que as máquinas estão finalmente começando a pensar.

Clarin

Clarin

Notícias semelhantes

Todas as notícias
Animated ArrowAnimated ArrowAnimated Arrow